[~] gehört wie III und momentum und einem in Planung befindlichen Stück für Projektion und Tanz zu einer Reihe von Stücken, in denen ich mich mit animierter 2D-Grafik und physikalischen Modellen und deren Interaktion mit Klang beschäftige.
[~] entstand aus Improvisationen mit visuellem und musikalischem Material, das ich ursprünglich für III für die Interaktion zwischen Projektion, Baßklarinette und Elektronik entwickelt hatte. Zusammen mit weiteren grafischen Algorithmen aus momentum und älterem Material aus Beschreibung habe ich einige der improvisierten Ideen fixiert und mit größtenteils neuem vollständig synthetischen Klangmaterial zur Komposition [~] weiterentwickelt. Das Stück wird in Echtzeit generiert und muss, wie eine instrumentale Komposition, für die Aufführung nach einer Partitur mit Hilfe von OSC- und MIDI-Controllern interpretiert werden.
[~] wurde beim International Workshop on Computer Music and Audio Technology (WOCMAT) 2012 in Hsinchu, Taiwan, uraufgeführt.
Weitere Aufführungen beim Festival Música Viva 2014 in Lissabon, zu den 1. Saarbrücker Tagen der elektroakustischen und visuellen Musik 2014, in der Reihe Nomades im Mai 2015 im Goethe-Institut Alexandria sowie beim Festival digitIZMir im Oktober 2015 in Izmir.
Screenrecording einer Aufführung:
Elektronik und Visuals werden ausnahmslos in Echtzeit mit Hilfe von SuperCollider generiert und gesteuert. Die visuellen physikalischen Modelle werden größtenteils mit der redUniverse-Library von Fredrik Olofsson realisisert.
Auf der Klangebene kommen verschiedenen Synthese- und Signalverarbeitungsalgorithmen zum Einsatz, wobei feedback-basierte FM-Synthese (unter Verwendung des Unit Generators FM7 von Stefan Kersten) eine Hauptrolle spielt.
Die Steuerung der Parameter für physikalische Modelle und Klangsynthese erfolgt z.Z. über zwei verschiedene Interfaces: einem iPad mit TouchOSC und einem kompakten MIDI-Controller.